Aller au contenu principal
Fermer

OpenAI n'est pas satisfaite de certaines puces Nvidia et cherche des alternatives, selon certaines sources
information fournie par Reuters 03/02/2026 à 02:34

((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))

*

OpenAI cherche des alternatives à Nvidia pour les puces d'inférence d'IA

*

L'investissement de 100 milliards de dollars de Nvidia dans OpenAI est retardé

*

OpenAI explore des accords avec AMD, Cerebras et Groq

(Mise à jour avec le commentaire du directeur général d'OpenAI au paragraphe 9) par Max A. Cherney, Krystal Hu et Deepa Seetharaman

OpenAI n'est pas satisfaite de certaines des dernières puces d'intelligence artificielle de Nvidia et cherche d'autres solutions depuis l'année dernière, ont déclaré huit sources au fait du dossier, ce qui pourrait compliquer les relations entre les deux acteurs les plus en vue de l'essor de l'IA.

Le changement de stratégie du fabricant de ChatGPT, dont les détails ont été rapportés pour la première fois ici, consiste à mettre de plus en plus l'accent sur les puces utilisées pour exécuter des éléments spécifiques de l'inférence de l'IA, le processus au cours duquel un modèle d'IA tel que celui qui alimente l'application ChatGPT répond aux questions et aux demandes des clients. Nvidia reste dominant dans le domaine des puces destinées à l'entraînement de grands modèles d'IA, tandis que l'inférence est devenue un nouveau front dans la compétition. La décision d'OpenAI et d'autres entreprises de chercher des alternatives sur le marché des puces d'inférence constitue un test important de la domination de Nvidia dans le domaine de l'IA et intervient alors que les deux entreprises sont en pourparlers d'investissement. En septembre, Nvidia a déclaré son intention d'investir jusqu'à 100 milliards de dollars dans OpenAI dans le cadre d'un accord qui a donné au fabricant de puces une participation dans la startup et à OpenAI les liquidités dont elle avait besoin pour acheter les puces avancées.

L'accord devait être conclu dans les semaines à venir, selon Reuters. Au lieu de cela, les négociations ont traîné pendant des mois. Pendant ce temps, OpenAI a conclu des accords avec AMD

AMD.O et d'autres pour des GPU construits pour rivaliser avec ceux de Nvidia. Mais l'évolution de sa feuille de route a également modifié le type de ressources informatiques dont elle a besoin et a enlisé les négociations avec Nvidia, a déclaré une personne au fait du dossier. Samedi, le directeur général de Nvidia, Jensen Huang, a balayé un rapport faisant état de tensions avec OpenAI, déclarant que l'idée était "absurde" et que Nvidia prévoyait d'investir massivement dans OpenAI.

"Les clients continuent de choisir NVIDIA pour l'inférence parce que nous fournissons les meilleures performances et le meilleur coût total de possession à l'échelle", a déclaré Nvidia dans un communiqué.

Dans une déclaration séparée, un porte-parole d'OpenAI a indiqué que la société s'appuie sur Nvidia pour alimenter la grande majorité de sa flotte d'inférence et que Nvidia fournit la meilleure performance par dollar pour l'inférence.

Après la publication de l'article de Reuters, le directeur général d'OpenAI, Sam Altman, a écrit dans un billet sur X que Nvidia fabriquait "les meilleures puces d'IA au monde" et qu'OpenAI espérait rester un "gigantesque client pendant très longtemps".

Sept sources ont déclaré qu'OpenAI n'était pas satisfaite de la vitesse à laquelle le matériel de Nvidia pouvait fournir des réponses aux utilisateurs de ChatGPT pour des types de problèmes spécifiques tels que le développement de logiciels et la communication de l'IA avec d'autres logiciels. Elle a besoin d'un nouveau matériel qui pourrait à l'avenir répondre à environ 10 % des besoins de l'OpenAI en matière de calcul d'inférence, a déclaré l'une des sources à Reuters.

Le fabricant du ChatGPT a discuté avec des startups telles que Cerebras et Groq pour fournir des puces permettant une inférence plus rapide, ont déclaré deux sources. Mais Nvidia a conclu un accord de licence de 20 milliards de dollars avec Groq, ce qui a mis fin aux discussions avec OpenAI, a déclaré l'une des sources à Reuters. La décision de Nvidia de racheter les talents clés de Groq ressemble à un effort pour consolider un portefeuille de technologies afin d'être plus compétitif dans un secteur de l'IA qui évolue rapidement, ont déclaré des cadres de l'industrie des puces électroniques. Nvidia a déclaré dans un communiqué que la propriété intellectuelle de Groq était très complémentaire de la feuille de route de Nvidia.

LES ALTERNATIVES DE NVIDIA

Les puces de traitement graphique de Nvidia sont bien adaptées au traitement de données massives nécessaire pour entraîner de grands modèles d'IA comme ChatGPT, qui ont été à l'origine de la croissance explosive de l'IA à l'échelle mondiale jusqu'à présent. Mais les progrès de l'IA se concentrent de plus en plus sur l'utilisation des modèles formés pour l'inférence et le raisonnement, ce qui pourrait constituer une nouvelle étape plus importante de l'IA, inspirant les efforts de l'OpenAI.

Depuis l'année dernière, la recherche d'alternatives aux GPU par le fabricant de ChatGPT s'est concentrée sur les entreprises construisant des puces avec de grandes quantités de mémoire intégrées dans le même morceau de silicium que le reste de la puce, appelé SRAM. L'intégration d'un maximum de SRAM coûteuse sur chaque puce peut offrir des avantages en termes de vitesse pour les chatbots et autres systèmes d'intelligence artificielle lorsqu'ils traitent les demandes de millions d'utilisateurs.

L'inférence nécessite plus de mémoire que l'entraînement, car la puce doit passer relativement plus de temps à extraire des données de la mémoire qu'à effectuer des opérations mathématiques. Les technologies GPU de Nvidia et d'AMD s'appuient sur une mémoire externe, ce qui augmente le temps de traitement et ralentit la vitesse à laquelle les utilisateurs peuvent interagir avec un chatbot.

Au sein d'OpenAI, le problème est devenu particulièrement visible dans Codex, son produit de création de code informatique, que l'entreprise a commercialisé de manière agressive, a ajouté l'une des sources. Le personnel d'OpenAI a attribué certaines des faiblesses de Codex au matériel basé sur le GPU de Nvidia, a déclaré l'une des sources.

Lors d'une conférence de presse le 30 janvier, M. Altman a déclaré que les clients qui utilisent les modèles de codage d'OpenAI "accorderont une grande importance à la rapidité du travail de codage"

L'un des moyens pour OpenAI de répondre à cette demande est son récent accord avec Cerebras, a déclaré Altman, ajoutant que la vitesse est moins un impératif pour les utilisateurs occasionnels de ChatGPT.

Les produits concurrents tels que Claude d'Anthropic et Gemini de Google bénéficient de déploiements qui s'appuient davantage sur les puces fabriquées en interne par Google, appelées unités de traitement tensoriel (TPU), qui sont conçues pour le type de calculs requis pour l'inférence et peuvent offrir des avantages en termes de performances par rapport aux puces d'IA polyvalentes telles que les GPU conçus par Nvidia.

NVIDIA EN MOUVEMENT

Alors que l'OpenAI exprimait clairement ses réserves à l'égard de la technologie de Nvidia, cette dernière a approché des entreprises travaillant sur des puces à forte teneur en SRAM, notamment Cerebras et Groq, en vue d'une acquisition potentielle, ont déclaré les personnes en question. Cerebras a refusé et a conclu un accord commercial avec OpenAI, annoncé le mois dernier. Cerebras n'a pas souhaité faire de commentaires.

Groq a discuté avec OpenAI d'un accord pour fournir de la puissance de calcul et a reçu l'intérêt d'investisseurs pour financer la société à une valeur d'environ 14 milliards de dollars, selon des personnes familières avec les discussions. Groq a refusé de commenter.

Mais en décembre, Nvidia a décidé d'accorder une licence pour la technologie de Groq dans le cadre d'un accord non exclusif en espèces, ont indiqué les sources. Bien que l'accord permette à d'autres entreprises d'obtenir une licence pour la technologie de Groq, l'entreprise se concentre désormais sur la vente de logiciels basés sur l'informatique en nuage, alors que Nvidia a embauché les concepteurs de puces de Groq.

Valeurs associées

343,6900 USD NASDAQ +1,68%
246,1600 USD NASDAQ +3,98%
185,6100 USD NASDAQ -2,89%

0 commentaire

Signaler le commentaire

Fermer

A lire aussi

  • Bourse Euronext dans le quartier d'affaires de La Défense à Paris
    information fournie par Reuters 03.02.2026 07:41 

    par Blandine Henault Les principales Bourses européennes sont attendues en hausse mardi à l'ouverture, à la faveur du rebond des métaux précieux et de l'accord commercial signé entre les Etats-Unis et l'Inde. D'après les premières indications disponibles, le CAC ... Lire la suite

  • Illustration du logo de SpaceX et d'Elon Musk
    information fournie par Reuters 03.02.2026 07:31 

    par Echo Wang et Joey Roulette Elon Musk a annoncé lundi le rachat par SpaceX de la start-up xAI, également détenue par le milliardaire, qui devrait ainsi fusionner l'entreprise de fusées et de ‍satellites avec le fabricant du chatbot Grok pour unifier ses ambitions ... Lire la suite

  • Entrée du NYSE Wall Street à New York
    information fournie par Reuters 03.02.2026 07:26 

    par Noel Randewich et Pranav Kiran La Bourse de New York a fini en hausse lundi, portée par les gains des fabricants de puces électroniques et d'autres entreprises liées à l'intelligence artificielle ( IA), tandis que les petites capitalisations ont elles aussi ... Lire la suite

  • siège d'Amundi (Crédit:  / Amundi)
    information fournie par Reuters 03.02.2026 07:00 

    Amundi AMUN.PA a fait état mardi d'une collecte nette plus élevée que prévu au quatrième trimestre, la directrice générale du premier gestionnaire d'actifs européen soulignant que ses clients recherchaient des investissements de diversification en Europe et s'éloignaient ... Lire la suite

Mes listes

Cette liste ne contient aucune valeur.
Chargement...